AI资讯新闻榜单内容搜索-Mistral AI

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Mistral AI
32K上下文,Mistral 7B v0.2 基模型突然开源了

32K上下文,Mistral 7B v0.2 基模型突然开源了

32K上下文,Mistral 7B v0.2 基模型突然开源了

刚刚,Mistral AI 的模型又更新了。 这次开源一如既往地「突然」,是在一个叫做 Cerebral Valley 的黑客松活动上公布的。

来自主题: AI资讯
6964 点击    2024-03-24 21:39
估值飙升,Mistral AI成微软第二条“大腿”

估值飙升,Mistral AI成微软第二条“大腿”

估值飙升,Mistral AI成微软第二条“大腿”

2月26日,总部位于巴黎的人工智能公司Mistral AI发布尖端文本生成模型Mistral Large。该模型达到了顶级的推理能力,可用于复杂的多语言推理任务,包括文本理解、转换和代码生成。

来自主题: AI资讯
4497 点击    2024-02-28 16:22
揭秘硅谷巨头AI初创公司投资布局!英伟达ALL IN,微软-OpenAI式关系引反垄断调查

揭秘硅谷巨头AI初创公司投资布局!英伟达ALL IN,微软-OpenAI式关系引反垄断调查

揭秘硅谷巨头AI初创公司投资布局!英伟达ALL IN,微软-OpenAI式关系引反垄断调查

2023年,有超过10家AI初创公司接受了传统科技巨头的大额投资,不断建立并且强化了微软—OpenAI式的合作关系,甚至引发了英美两国的监管机构的关注。

来自主题: AI资讯
10707 点击    2024-01-16 10:56
8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

前段时间,Mistral AI 公布的 Mixtral 8x7B 模型爆火整个开源社区,其架构与 GPT-4 非常相似,很多人将其形容为 GPT-4 的「缩小版」。

来自主题: AI技术研报
5960 点击    2024-01-01 11:08
一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

「高端」的开源,往往采用最朴素的发布方式。昨天,Mistral AI 在 X 平台甩出一条磁力链接,宣布了新的开源动作。

来自主题: AI资讯
9645 点击    2023-12-10 14:35
首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

“取消今晚所有计划!”,许多AI开发者决定不睡了。只因首个开源MoE大模型刚刚由Mistral AI发布。

来自主题: AI资讯
7757 点击    2023-12-09 15:42